dimanche 23 février 2025

Les six tendances fondamentales de l'IA pour 2025.

Les 6 tendances de l'IA pour 2025. 

Évolution des paradigmes et transformation organisationnelle, recommandations stratégiques, contexte géopolitique.

  1. L'IA agentique (Agentic AI) : Une promesse à nuancer L'IA agentique, qui permet d'effectuer des tâches de manière autonome, est considérée comme la tendance majeure de 2025. Bien que 37% des leaders IT pensent déjà l'utiliser et que 68% prévoient de l'adopter dans les six prochains mois, les auteurs recommandent la prudence. Ils prévoient que son déploiement initial se limitera à des tâches internes structurées et de faible enjeu financier, comme la gestion des mots de passe ou des congés, nécessitant toujours une supervision humaine.
  2. La mesure des résultats de l'IA générative Malgré l'enthousiasme général (58% des dirigeants rapportent des gains exponentiels de productivité), les auteurs soulignent le manque crucial de mesures concrètes. Les rares études existantes, comme celle de Goldman Sachs, montrent des améliorations plus modestes (environ 20% pour les développeurs). Les auteurs recommandent la mise en place d'expériences contrôlées pour évaluer précisément l'impact de l'IA générative sur la productivité et la qualité du travail.
  3. La réalité de la culture axée sur les données L'article révèle un retour à la réalité concernant la transformation digitale des organisations. Les chiffres d'adoption d'une culture basée sur les données sont passés de 43% à 33%, suggérant que l'IA générative seule ne suffit pas à transformer la culture d'entreprise. En effet, 92% des répondants identifient les défis culturels et la gestion du changement comme les principaux obstacles à cette transformation.
  4. Le retour en force des données non structurées L'IA générative a ravivé l'intérêt pour les données non structurées (texte, images, vidéos), qui représentent jusqu'à 97% des données dans certaines entreprises. Les organisations doivent désormais investir dans la gestion et l'organisation de ces données, notamment via des approches comme le RAG (Retrieval-Augmented Generation), tout en maintenant une importante intervention humaine pour la curation des données.
  5. La gouvernance des données et de l'IA La question du leadership en matière de données et d'IA reste complexe. Bien que 85% des organisations aient nommé un Chief Data Officer et 33% un Chief AI Officer, moins de la moitié considèrent ces fonctions comme bien établies. Les auteurs débattent de la structure optimale : certains préconisent un rattachement direct à la direction générale, d'autres suggèrent une consolidation des rôles techniques sous une direction unique pour plus d'efficacité.
  6. La cybersécurité des IA : cœur de la fragilité des process :  
    1. Surface d'attaque élargie avec la multiplication des agents autonomes
    2. Vulnérabilités spécifiques aux systèmes multi-agents (manipulation, détournement)
    3. Sécurisation des environnements sandbox mentionnés dans le chapitre 3
    4. Protection des données utilisées pour l'entraînement et l'opération des agents
    5. Nécessité de frameworks pour l'audit de sécurité des agents autonomes

Évolution des paradigmes et transformation organisationnelle

Le plan détaillé expose:

  1. Transition des LLM vers des systèmes intelligents distribués
  2. Émergence des agents autonomes comme nouvelle unité de travail
  3. Gouvernance complexe entre autonomie et supervision humaine
  4. Impact profond sur les structures organisationnelles et la gestion des talents
  5. Nouveaux rôles comme "Agent Manager" et traitement des agents comme "employés digitaux"

Recommandations stratégiques

Pour une organisation anticipant cette évolution:

  1. Développer une matrice d'évaluation des risques spécifiques aux systèmes multi-agents
  2. Intégrer des mécanismes de surveillance et d'audit dès la conception des systèmes
  3. Établir un cadre de gouvernance robuste pour les décisions autonomes
  4. Investir dans la formation des équipes au nouveau paradigme agent-centrique
  5. Prévoir des mécanismes de repli et d'arrêt d'urgence pour les agents autonomes

Cette évolution représente un changement paradigmatique majeur où la frontière entre assistant et agent autonome devient progressivement plus floue, avec des implications significatives pour la sécurité, la gouvernance et la structure organisationnelle des entreprises.

Contexte géopolitique

Le diagramme Mermaid cartographie l'écosystème mondial de l'IA, révélant:

  1. Dominance américaine avec OpenAI, Anthropic et DeepMind
  2. Pôle chinois centré sur les géants BAT et une infrastructure nationale
  3. Approche européenne axée sur l'éthique (GAIA-X) et la réglementation
  4. Positionnement stratégique du Royaume-Uni (recherche), du Canada et de l'Inde

Ce contexte illustre la complexité des enjeux géostratégiques et les différentes approches régionales.

Cette analyse montre que l'année 2025 sera marquée par une approche plus réaliste et pragmatique de l'IA, mettant l'accent sur la mesure des résultats, la gestion du changement culturel et l'organisation efficace des données et des équipes.

Source l'article de Thomas H. Davenport et Randy Bean.

Five Trends in AI and Data Science for 2025

https://sloanreview.mit.edu/article/five-trends-in-ai-and-data-science-for-2025/

Comparaison des Forces en IA par Région / monde.

RégionForcesModèlesInfrastructureRechercheSpécialisation
États-UnisLeaders technologiques, Cloud, InnovationGPT-4, Claude, PaLMDominanteTrès forteIA Générale, LLMs
ChineScale, Données, ApplicationsErnie, GLM, WuDaoAutonomeForteIA appliquée, Vision
EuropeRégulation, ÉthiqueBLOOM, Aleph AlphaEn développementForteIA Responsable
IndeTalents, Scale, CoûtsBhashiniÉmergenteCroissanteNLP multilingue
Royaume-UniRecherche, InnovationAlphaFoldMoyenneTrès forteIA Scientifique
CanadaRecherche fondamentaleLambdaNetMoyenneTrès forteIA Théorique
Pays ArabesInvestissements, ApplicationsArabicGPTEn développementÉmergenteFintech, Énergie

Synthèse des connaissances  :

Perspective géopolitique :

Les États-Unis dominent via les grandes bases de données et archives scientifiques (PubMed, arXiv)
La Chine développe rapidement ses propres bases de connaissances isolées
L'Europe mise sur l'open science et le partage des données FAIR
L'Inde se positionne comme hub de traitement et d'analyse de données

Modèles :

Dynamique des acteurs :

USA : OpenAI, Anthropic, Google DeepMind dominent l'innovation
Chine : Baidu, Alibaba, Tencent développent des alternatives nationales
Europe : Focus sur des modèles spécialisés et éthiques
Canada : Pioneer dans l'IA via Montreal/Toronto/Edmonton
UK : DeepMind et forte recherche académique
Pays du Golfe : Investissements massifs dans les infrastructures

Mise à l'échelle :

Répartition des forces :

USA : AWS, Google Cloud, Microsoft Azure en position dominante
Chine : Infrastructure cloud nationale robuste et indépendante
Europe : Tentative de souveraineté numérique (GAIA-X)
Inde : Expertise en déploiement à grande échelle et coûts optimisés


Éléments périphériques critiques :

Performance et Robustesse :

USA/UK : Standards de référence (NIST)
Chine : Développement de benchmarks alternatifs
Europe : Focus sur la certification et standards éthiques

Programmation et Télémétrie :

USA : GitHub/Microsoft dominent les outils
Chine : Écosystème parallèle (Gitee)
Inde : Hub majeur de développement et d'intégration

Coût et Efficacité :

Impact sur la compétitivité régionale
Avantage des économies d'échelle américaines et chinoises
Défi majeur pour l'Europe et autres acteurs

Recommandations stratégiques :

Renforcer les collaborations transversales :

Alliances technologiques (USA-Europe-Inde)
Partage des ressources de calcul
Standards communs d'évaluation


Développer des spécialisations régionales :

Europe : IA éthique et régulée
Inde : Solutions à grande échelle optimisées
Canada : IA fondamentale et recherche
Pays du Golfe : Applications financières et énergétiques


Garantir l'autonomie stratégique :

Infrastructures cloud souveraines
Bases de données indépendantes
Capacités de formation des modèles


Prioriser la formation et les talents :

Programmes internationaux d'échange
Centres d'excellence régionaux
Rétention des experts clés


Cette analyse révèle une compétition intense mais aussi des opportunités de collaboration internationale pour développer une IA robuste et bénéfique globalement.

2025 Tendances de l'IA : Les innovations à surveiller cette année

https://www.ultralytics.com/fr/blog/2025-ai-trends-the-innovations-to-look-out-for-this-year


L'IA à toutes les sauces : les 5 grandes tendances technologiques à suivre en 2025 - WE DEMAIN

https://www.wedemain.fr/decouvrir/lia-a-toutes-les-sauces-les-5-grandes-tendances-technologiques-a-suivre-en-2025/


Erol GIRAUDY





samedi 15 février 2025

How to Get Your Data Ready for AI Agents (Docs, PDFs, Websites)

How to Get Your Data Ready for AI Agents (Docs, PDFs, Websites).


Want to get started as a freelancer? Let me help: 

Additional Resources
📚 Just getting started? Learn the fundamentals of AI: https://www.skool.com/data-alchemy
🚀 Already building AI apps? Get our production framework: https://launchpad.datalumina.com/?utm...
💼 Need help with a project? Work with me: 

🔗 GitHub Repository

🛠️ My VS Code / Cursor Setup
   • The Ultimate VS Code Setup for Data &...  

⏱️ Timestamps
0:45 Building an Extraction Pipeline
2:15 Document Conversion Basics
6:12 HTML Extraction Techniques
9:10 Chunking Data for AI
14:22 Storing in Vector Databases
19:51 Searching the Vector Database
22:16 Creating an Interactive Application



📌 Description
In this Docling tutorial, you will learn to extract and structure data from various documents, utilizing techniques such as parsing, chunking, and embedding. A walkthrough of Docling and a practical demonstration illustrate these processes.


The video also explores integrating vector databases for efficient data storage and enhancing AI responses through embedding models. Finally, a simple interactive chat application is demonstrated, showcasing the completed knowledge extraction pipeline and optimization strategies.

👋🏻 About Me
Hi! I'm Dave, AI Engineer and founder of Datalumina®. On this channel, I share practical tutorials that teach developers how to build production-ready AI systems that actually work in the real world. Beyond these tutorials, I also help people start successful freelancing careers. Check out the links above to learn more!


Architecture

L’architecture de Docling est décrite dans le schéma ci-dessus.

Pour chaque format de document, le convertisseur de documents sait quel backend spécifique au format utiliser pour l’analyse du document et quel pipeline utiliser pour orchestrer l’exécution, ainsi que toutes les options pertinentes.  https://ds4sd.github.io/docling/concepts/architecture/ 

Dans ce tutoriel Docling, vous apprendrez à extraire et à structurer des données à partir de divers documents, en utilisant des techniques telles que l’analyse, le découpage et l’intégration. Une présentation de Docling et une démonstration pratique illustrent ces processus.

Pour LLAMA 

Lecteur de documentation.

LlamaIndex est le cadre de référence pour la création d’agents LLM sur vos données.

%pip install -q --progress-bar off --no-warn-conflicts llama-index-core llama-index-readers-docling llama-index-node-parser-docling llama-index-embeddings-huggingface llama-index-llms-huggingface-api llama-index-readers-file python-dotenv

Docling Reader utilise Docling pour permettre l’extraction rapide et facile de PDF, DOCX, HTML et d’autres types de documents, au format Docling sérialisé en Markdown ou JSON, pour une utilisation dans les pipelines LlamaIndex pour RAG / QA, etc.


LlamaIndex (GPT Index) est un cadre de données pour votre application LLM. Construire avec LlamaIndex implique généralement de travailler avec le noyau de LlamaIndex et un ensemble choisi d’intégrations (ou plugins). 

Il y a deux façons de commencer à construire avec LlamaIndex dans Python:

Entrée : lama-index. Un package Python de démarrage qui inclut le noyau de LlamaIndex ainsi qu’une sélection d’intégrations.

Personnalisé : llama-index-core. Installez le noyau de LlamaIndex et ajoutez les packages d’intégration LlamaIndex de votre choix sur LlamaHub qui sont requis pour votre application. 

Il y a plus de 300 intégrations LlamaIndex qui fonctionnent de manière transparente avec le noyau, ce qui vous permet de construire avec votre Fournisseurs de LLM, d’intégration et de magasins de vecteurs.

La bibliothèque Python LlamaIndex est dont les noms sont tels que les instructions d’importation qui include implique que le paquet de base est utilisé. 

En revanche, ces sans impliquer qu’un package d’intégration est utilisé.



Lecteur de documentation LLAMA 

Docling extrait PDF, DOCX, HTML et d’autres formats de documents dans une représentation riche (y compris la mise en page, les tableaux, etc.), qu’il peut exporter au format Markdown ou JSON.

Docling Reader et Docling Node Parser présentés dans ce carnet intègrent de manière transparente Docling dans LlamaIndex, vous permettant de :

utiliser différents types de documents dans vos applications LLM avec facilité et rapidité, et
tirez parti du format riche de Docling pour une base avancée et native du document.




Getting Started | LlamaCloud Documentation




Erol GIRAUDY

mardi 11 février 2025

mistral-large et OLLAMA

 mistral-large 2


Mistral Large 2 est le nouveau modèle phare de Mistral qui est nettement plus capable de générer du code, de mathématiques et de raisonner avec une fenêtre contextuelle de 128k et la prise en charge de dizaines de langues.  https://mistral.ai/en/news/mistral-large-2407


tools123b

120.9K2 months ago

Mistral-Large-Instruct-2411 est un modèle de langage large (LLM) dense avancé de 123B avec des capacités de raisonnement, de connaissances et de codage de pointe.



Caractéristiques principales

  • Multilingue par conception : des dizaines de langues prises en charge, dont l’anglais, le français, l’allemand, l’espagnol, l’italien, le chinois, le japonais, le coréen, le portugais, le néerlandais et le polonais.
  • Maîtrise du codage : Formé sur 80+ langages de codage tels que Python, Java, C, C++, JavacScript et Bash. Également formé sur des langages plus spécifiques tels que Swift et Fortran.
  • Centré sur l’agentique : les meilleures capacités agentiques de leur catégorie avec appel de fonction natif et sortie JSON.
  • Raisonnement avancé : Capacités mathématiques et de raisonnement de pointe.
  • Licence Mistral Research : Permet l’utilisation et la modification à des fins de recherche et d’utilisation non commerciale.
  • Grand contexte : une grande fenêtre contextuelle de 128 ko.


Mistral Large 2 dispose d’une fenêtre contextuelle de 128k et prend en charge des dizaines de langues, dont le français, l’allemand, l’espagnol, l’italien, le portugais, l’arabe, l’hindi, le russe, le chinois, le japonais et le coréen, ainsi que 80+ langages de codage, dont Python, Java, C, C++, JavaScript et Bash.

Mistral Large 2 est conçu pour l’inférence à nœud unique avec des applications à contexte long à l’esprit - sa taille de 123 milliards de paramètres lui permet de fonctionner à un débit élevé sur un seul nœud. Nous lançons Mistral Large 2 sous la licence de recherche Mistral, qui permet l’utilisation et la modification pour la recherche et les utilisations non commerciales. Pour une utilisation commerciale de Mistral Large 2 nécessitant un auto-déploiement, une licence commerciale Mistral doit être acquise en nous contactant.

Performances générales
Mistral Large 2 établit une nouvelle frontière en termes de performance / coût de service sur les métriques d’évaluation. En particulier, sur MMLU, la version pré-entraînée atteint une précision de 84,0 % et pose un nouveau point sur le front de Pareto performance/coût des modèles ouverts.

Code et raisonnement

Suite à notre expérience avec Codestral 22B et Codestral Mamba, nous avons formé Mistral Large 2 sur une très grande partie du code. Mistral Large 2 surpasse largement le précédent Mistral Large et offre des performances comparables à celles de modèles de premier plan tels que GPT-4o, Claude 3 Opus et Llama 3 405B.


Un effort important a également été consacré à l’amélioration des capacités de raisonnement du modèle. L’un des principaux domaines d’intérêt de la formation était de minimiser la tendance du modèle à « halluciner » ou à générer des informations plausibles, mais factuellement incorrectes ou non pertinentes. Pour ce faire, le modèle a été affiné afin qu’il soit plus prudent et plus perspicace dans ses réponses, en veillant à ce qu’il fournisse des résultats fiables et précis.

De plus, le nouveau Mistral Large 2 est entraîné à accuser réception lorsqu’il ne trouve pas de solutions ou qu’il ne dispose pas de suffisamment d’informations pour fournir une réponse fiable. Cet engagement envers la précision se reflète dans l’amélioration des performances du modèle sur les benchmarks mathématiques populaires, démontrant ses capacités améliorées de raisonnement et de résolution de problèmes :



Précision des performances sur les benchmarks de génération de code (tous les modèles ont été benchmarkés via le même pipeline d’évaluation)




Vous pouvez utiliser Mistral Large 2 dès aujourd’hui via la Plateforme sous le nom de , et le tester sur le Chat. Il est disponible sous la version 24.07 (une version YY. MM que nous appliquons à tous nos modèles), et le nom de l’API . Les poids pour le modèle instruct sont disponibles et sont également hébergés sur HuggingFace.mistral-large-2407mistral-large-2407

mistral-large/model


mistral-large/license



Nous consolidons l’offre sur la Plateforme autour de deux modèles généralistes, Mistral Nemo et Mistral Large, et de deux modèles spécialisés, Codestral et Embed. Au fur et à mesure que nous déprécions les anciens modèles sur la Plateforme, tous les modèles Apache (Mistral 7B, Mixtral 8x7B et 8x22B, Codestral Mamba, Mathstral) restent disponibles pour le déploiement et la mise au point à l’aide de nos SDK mistral-inference et mistral-finetune.

À partir d’aujourd’hui, nous étendons les capacités de mise au point de la Plateforme : elles sont désormais disponibles pour Mistral Large, Mistral Nemo et Codestral.

Accédez aux modèles Mistral via des fournisseurs de services cloud


Nous sommes fiers de nous associer aux principaux fournisseurs de services cloud pour proposer le nouveau Mistral Large 2 à un public mondial. En particulier, nous étendons aujourd’hui notre partenariat avec Google Cloud Platform pour apporter les modèles de Mistral AI sur Vertex AI via une API managée. Les meilleurs modèles de Mistral AI sont désormais disponibles sur Vertex AI, en plus d’Azure AI Studio, Amazon Bedrock et IBM watsonx.ai.


Source en anglais :  

Large Enough | Mistral AI  https://mistral.ai/en/news/mistral-large-2407


Mistral Large 2 :



llama3.3

New state of the art 70B model. Llama 3.3 70B offers similar performance compared to the Llama 3.1 405B model.








Mistral AI traite vos données personnelles ci-dessous pour fournir le modèle et faire respecter sa licence. Si vous êtes affilié à une entité commerciale, nous pouvons également vous envoyer des communications sur nos modèles. Pour plus d’informations sur vos droits et le traitement des données, veuillez consulter notre politique de confidentialité.

Licence de recherche Mistral AI
Si vous souhaitez utiliser un Modèle Mistral, un Dérivé ou une Sortie à des fins qui ne sont pas expressément autorisées par le présent Contrat, Vous devez demander une licence à Mistral AI, que Mistral AI peut Vous accorder à la seule discrétion de Mistral AI. Pour discuter d’une telle licence, veuillez contacter Mistral AI via le formulaire de contact du site : https://mistral.ai/contact/

1. Champ d’application et acceptation 



Conditions Générales de Service 

Version en vigueur au 6 février 2025 

Bienvenue chez Mistral AI ! Nous fournissons des solutions et des services qui permettent d’accéder et d’utiliser nos modèles d'intelligence artificielle depuis notre plateforme accessible à https://mistral.ai/. Les présentes conditions générales de service (les "Conditions Générales") régissent votre utilisation de La Plateforme, Le Chat et des autres sites web, produits, services et solutions que nous proposons (les 
"Services"), sauf lorsque nous indiquons expressément que d'autres conditions s'appliquent (nous désignons ces autres conditions par l'expression "Conditions Particulières"). 

Les Services sont fournis par Mistral AI, société par actions simplifiée de droit français, immatriculée à Paris sous le numéro 952 418 325, dont le siège social est situé au 15 rue des Halles, 75001 Paris, France (“Mistral AI” ou “nous”).







Les six tendances fondamentales de l'IA pour 2025.

Les 6 tendances de l'IA pour 2025.  Évolution des paradigmes et transformation organisationnelle, recommandations stratégi...